草庐IT

微调 Fine-tuning

全部标签

【AIGC】AnimateDiff:无需定制化微调的动画化个性化的文生图模型

 前言Animatediff是一个有效的框架将文本到图像模型扩展到动画生成器中,无需针对特定模型进行调整。只要在大型视频数据集中学习到运动先验知识。AnimateDiff就可以插入到个性化的文生图模型中,与Civitai和Huggingface的文生图模型兼容,也可以与自己微调的大模型兼容。摘要  随着文本到图像模型(例如,StableDiffusion[22])和相应的个性化技术的进步DreamBooth[24]和LoRA[13]等产品,每个人都可以以可承受的成本将他们的想象力体现成高质量的图像。因此,对图像动画技术的需求很大,可以进一步将生成的静态图像与运动动态相结合。在本报告中,我们提出

聊聊ChatGLM-6B医疗数据微调

转载请注明出处:https://www.cnblogs.com/zhiyong-ITNote/参考了多个医疗大模型,如扁鹊、灵心等,重新思考了下微调的方案以及数据集的格式;基于ChatGLM/其它LLM整合多种微调方法的非官方实现的框架,审视其数据集格式,以及调试效果,进行微调。最终基于liucongg/ChatGLM-Finetuning开源框架成功的微调出来我想要的结果。服务器环境阿里云PAI平台开源库下载在服务器上通过git一键下载即可:ChatGLM-6B下载直接在服务器上,通过魔塔社区的sdk下载代码一键下载即可:我加了一句代码打印出下载地址,然后通过mv命令拷贝到指定路径下。#模型

聊聊大模型的微调实现及其应用

转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote微调框架概述模型的微调有多种方式,对于入门的来说,一般都是基于官方的文档微调;最近发现很多开源库,其目的就是支持应用多种微调策略来微调模型,简化模型的微调门槛。比如ChatGLM-Efficient-Tuning、LLaMA-Factory。其架构逻辑如下:最近试玩了这两个框架,个人觉得蛮好的,先不说实际的调试效果,这取决于多种因素,总的来说还是很方便快捷的。方便快捷的基于多种微调策略调试LLM;同时支持多种数据集类型。LLaMA-Factory这个开源库相比较其余的库,更全面,更方便。有如下几点我是比

stable diffusion微调总结

stablediffusion微调总结stablediffusion模型类别:SDSD2SDXLSDXLLCM(潜在一致性模型)SDXLDistilledSDXLTurbo安装accelerate通过pip安装配置accelerateconfig查看配置安装diffusers数据处理BLIP模型优化微调方法Dreambooth微调准备数据:模型训练脚本:模型推理:模型转换脚本:Dream+LORA微调模型训练脚本:模型推理脚本:FullFineTune数据格式:训练脚本:推理脚本LORA微调数据格式:训练脚本:推理脚本:stablediffusion模型类别:SDSD是一个基于latent的扩

多模态表征—CLIP及中文版Chinese-CLIP:理论讲解、代码微调与论文阅读

我之前一直在使用CLIP/Chinese-CLIP,但并未进行过系统的疏导。这次正好可以详细解释一下。相比于CLIP模型,Chinese-CLIP更适合我们的应用和微调,因为原始的CLIP模型只支持英文,对于我们的中文应用来说不够友好。Chinese-CLIP很好地弥补了这方面的不足,它使用了大量的中文-文图对进行训练,与CLIP模型架构完全一致。下面我将从4部分对本篇章进行讲解,讲解CLIP的主要内容;讲解Chinese-CLIP的主要内容;CLIP/Chinese-CLIP代码微调;CLIP/Chinese-CLIP论文重点阅读CLIP:https://arxiv.org/abs/2103

自我认知微调

自我认知微调我们期望微调后的大模型是专属于我们自己的。比如询问大模型是谁或由谁训练的,大模型应当回复是由我们训练的。可以使用自我认知微调来实现这一点。自我认知微调与之前实践过的全参微调和LoRA微调并没有本质上的区别,我们既可以使用任意的微调方式来实现自我认知微调。区别在于,自我认知微调需要使用专门制作的自我认知数据集,并且往往需要混合一部分通用领域/垂直领域的数据集。混合数据集的原因是为了尽可能防止模型在进行自我认知学习的过程中遗忘掉之前的知识。在进行以下步骤之前,请先根据全参微调或LoRA微调配置好环境。编写自我认知微调脚本以下是一个使用LoRA进行自我认知微调的脚本:nproc_per_

基于SWIFT和Qwen1.5-14B-Chat进行大模型LoRA微调测试

基于SWIFT和Qwen1.5-14B-Chat进行大模型LoRA微调测试环境准备基础环境操作系统:Ubuntu18.04.5LTS(GNU/Linux3.10.0-1127.el7.x86_64x86_64)Anaconda3:Anaconda3-2023.03-1-Linux-x86_64根据服务器网络情况配置好conda源和pip源,此处使用的是超算山河源服务器硬件配置:CPU96核;GPU8×NVIDIAA10040GB环境安装通过源代码安装SWIFT:创建一个新的conda环境:condacreate--nameswiftpython=3.8激活刚刚创建的conda环境:condaa

整理了上百个开源中文大语言模型,涵盖模型、应用、数据集、微调、部署、评测

自ChatGPT为代表的大语言模型(LargeLanguageModel,LLM)出现以后,由于其惊人的类通用人工智能(AGI)的能力,掀起了新一轮自然语言处理领域的研究和应用的浪潮。尤其是以ChatGLM、LLaMA等平民玩家都能跑起来的较小规模的LLM开源之后,业界涌现了非常多基于LLM的二次微调或应用的案例。本项目旨在收集和梳理中文LLM相关的开源模型、应用、数据集及教程等资料,目前收录的资源已达100+个!目录技术交流1.模型1.1文本LLM模型1.2多模态LLM模型2.应用2.1垂直领域微调医疗法律金融教育科技自媒体电商网络安全2.2LangChain应用2.3其他应用3.数据集预训

LLMs之Llama2 70B:使用 PyTorch FSDP 微调 Llama 2 70B实现全部过程讲解之详细攻略

LLMs之Llama270B:使用PyTorchFSDP微调Llama270B实现全部过程讲解之详细攻略目录使用PyTorchFSDP微调Llama270B引言FSDP工作流使用的硬件微调LLaMa270B面临的挑战解决上述挑战,微调出一个70B的模型准备工作微调应对挑战1应对挑战2应对挑战3注意力机制的性能瓶颈算子融合综合运用所有手段训练损失曲线总结使用PyTorchFSDP微调Llama270B地址文章地址:https://huggingface.co/blog/ram-efficient-pytorch-fsdp时间2023年9月13日作者SourabMangrulkarSylvainG

使用直接偏好优化策略微调Mistral-7b模型

译者|朱先忠审校|重楼引言通常,经过预训练的大型语言模型(LLM)只能执行下一个标记预测,这使其无法回答问题。这就解释了为什么这些基本模型还需要根据成对的指令和答案作进一步微调,最终才能够充当真正有用的人工助理。然而,这个过程仍然可能存在缺陷:微调LLM可能存在偏见的甚至是有毒害性的输出结果。这也正是从人类反馈中强化学习(ReinforcementLearningfromHumanFeedback:简称“RLHF”)发挥作用的地方。具体来说,RLHF能够为LLM提供不同的答案,这些答案将按所期待的行为(有益性、毒害性等)进行排序。该模型学习从这些候选者中输出最佳答案,从而模仿我们想要“灌输”的